1
Từ Lệnh Gọi API Trực Tiếp đến Tính Năng Của LangChain
AI010Lesson 5
00:00

Vượt Qua Yêu Cầu Thô

Khi bắt đầu với các Mô hình Ngôn ngữ lớn (LLMs), các nhà phát triển thường sử dụng các lời gọi API trực tiếp (như thư viện Python của OpenAI) để gửi một yêu cầu và nhận kết quả hoàn thành. Mặc dù hoạt động được, nhưng cách tiếp cận này trở nên khó kiểm soát khi ứng dụng mở rộng.

Vấn Đề Về Sự Không Có Trạng Thái

Các Mô hình Ngôn ngữ lớn vốn dĩ là không có trạng thái. Mỗi lần bạn gửi một tin nhắn, mô hình sẽ "quên" bạn là ai và bạn đã nói gì trước đó. Mỗi tương tác đều là một trang trắng. Để duy trì cuộc trò chuyện, bạn phải thủ công gửi lại toàn bộ lịch sử vào mô hình mỗi lần.

Giải Pháp Từ LangChain

LangChain giới thiệu lớp bao bọc ChatOpenAI cho mô hình. Điều này không đơn thuần chỉ là một lớp bao bọc — nó là nền tảng cho tính module. Bằng cách trừu tượng hóa lời gọi mô hình, chúng ta sau này có thể thay đổi mô hình, thêm bộ nhớ và sử dụng các mẫu mà không cần viết lại toàn bộ cơ sở mã nguồn của mình.

Tình Huống Hải Tặc
Hãy tưởng tượng một email khách hàng được viết bằng tiếng lóng kiểu "Hải tặc". Để chuyển đổi nó thành phản hồi chính thức trong doanh nghiệp, một lời gọi API trực tiếp đòi hỏi phải mã hóa cứng các hướng dẫn. Với LangChain, chúng ta tách biệt "Phong cách" (Hải tặc so với Chính thức) khỏi "Nội dung" (Email) bằng cách sử dụng trừu tượng hóa.
main.py
TERMINALbash — 80x24
> Ready. Click "Run" to execute.
>
Question 1
Why do we say LLMs are "stateless"?
They do not have access to the internet.
They cannot generate the same response twice.
They do not inherently remember previous messages in a conversation.
They are only capable of processing text, not data states.
Challenge: Initialize ChatOpenAI
Solve the problem below.
You are building a creative writing assistant and need to initialize your first LangChain model.

Your task is to create a ChatOpenAI instance named my_llm with a temperature of 0.7 to allow for more creative (non-deterministic) responses.
Task
Write the Python code to import and initialize the model.
Solution:
from langchain_openai import ChatOpenAI
my_llm = ChatOpenAI(temperature=0.7)